专利摘要:
第1の距離センサ(3(1))からの第1の距離センサデータをカメラ(9(j))からの画像データにマッピングする方法及び装置。当該方法は、モバイル・システムに搭載された位置判定装置からの時間データ及び位置データと、モバイル・システムに搭載された少なくとも第1の距離センサ(3(1))からの第1の距離センサデータと、前記モバイル・システムに搭載された少なくとも1つのカメラ(9(j))からの画像データとを受信する工程と、第1の距離センサデータ内で、少なくとも1つの物体に関連する第1の点群を識別する工程と、第1の点群に基づいて物体に関連するマスクを生成する工程と、少なくとも1つのカメラ(9(j))からの画像データ内に存在するのと同一の物体に関連する物体画像データ上に、マスクをマッピングする工程と、物体画像データの少なくとも一部分に対して、予め定められた画像処理技術を実行する工程とを含む。
公开号:JP2011505610A
申请号:JP2010531975
申请日:2007-11-07
公开日:2011-02-24
发明作者:ラファル;ヤン グリシェチンスキ,;ルーカス;ピョートル タボロフスキ,;クリストフ ミクサ,
申请人:テレ アトラス ベスローテン フエンノートシャップTele Atlas B.V.;
IPC主号:G06T17-05
专利说明:

[0001] 本発明は、モバイル・マッピング・システム(MMS)等の移動車両上のカメラのような画像センサで画像及び距離センサデータを撮像及び処理し、これらのデータを、同一の移動車両上に配置される少なくとも1つの距離センサによって取得される距離センサデータにマッピングする分野に関するものである。]
[0002] 一実施形態において、本発明は、更にそのような画像から個人機微データ(privacy sensitive data)を削除する分野に関するものである。個人機微データは、固定された世界(すなわち、地球)に対して相対的に移動する物体に関連してもよい。]
背景技術

[0003] いくつかのMMSアプリケーションにおいては、建造物の正面の画像や、木、道路標識、及び街路灯等の他の固定された物体の画像を撮影することが特に意図されており、それらは例えば、自動車ナビゲーション・システムにおいて使用される、道路の「実世界(real-world)」の2D画像及び3D画像の少なくとも何れかにおいて後に使用される。これにより、これらの画像は、そのようなナビゲーション・システムを備える自動車の運転者が、自動車の窓越しに見る際の実世界の光景に対応する、ナビゲーション・システムの画面上の2D画像及び3D画像の少なくとも何れかを見るように、自動車の運転者に示される。そのような画像は、自動車ナビゲーション・システム以外の他のアプリケーション、例えば、スタンドアロン・システムとして、又はネットワーク化された環境で協働するものとして、コンピュータ上で行われるゲームにおいて使用されてもよい。そのような環境は、インターネットであってもよい。以下に提示するように、本発明の解決策は特定のアプリケーションに限定されない。]
[0004] しかし、非常に多くのそのようなMMS画像は、画像上に意図せず存在する人物の顔及び読み取り可能なナンバープレート等の個人情報を含む場合がある。この個人情報、又は他の不要な情報を、そのままの状態でパブリック・アプリケーションにおいて使用することは望ましくない。例えば、新聞は、Google(登録商標)が配信するストリート・マップ・ビューで使用される画像に存在している不要な情報に関して報道している。実世界の状況で撮影される画像は、MMSの近傍の静止物体及び移動物体を描写する。当該画像において、そのような個人情報又は他の不要な情報を有する物体は、固定された世界に対して静止していてもよく、又は移動していてもよい。MMS上のカメラにより撮影された画像においては、そのような物体を識別する必要がある。いくつかの従来技術のアプリケーションは、画像特性のみに基づいて移動物体を識別し、一連の画像の色画素特性に基づいて移動の軌跡を判定しようとしてきた。しかし、そのような方法は、軌跡を判定するための3つ以上の一連の画像上で、物体が判定される場合に限り有効である。]
[0005] 他の例としては、他の種類のセンサを使用して、かかるセンサを備える車両に対して相対的な、物体の短時間軌跡近似を判定するシステムも開示されている。そのようなセンサは、レーザスキャナ、レーダシステム及びステレオビデオカメラを含んでもよい。例えば、そのようなシステムは、特許文献1の序論で言及されている。本明細書は、車両に対する物体の相対的な位置及び速度が、例えば車両と物体との事故を回避するために重要である、リアルタイム・アプリケーションに関するものである。本明細書は、ステレオビデオカメラによって得られる画像データ上に、センサにより取得される位置及び速度データをマッピングする方法については開示しない。また、そのような物体の絶対位置及び絶対速度の判定方法についても開示していない。本明細書において、「絶対」とは、地面によって、及び、建造物、交通標識、木、山等の、地面に対して固定された物体によって決定されるであろう固定された実世界に対して絶対的である、という意味で理解されるべきである。そのような実世界は、例えば、GPSシステムによって使用されるような基準グリッドによって規定されるであろう。また、本明細書は、ビデオカメラによって撮影される画像に含まれる個人機微データを取り扱う方法については対応していない。]
[0006] レーザスキャナを使用して、建造物の専有面積の場所の識別を支援することは、例えば同時係属の特許出願PCT/NL2006/050264で説明されている。]
先行技術

[0007] 欧州特許第1418444号公報]
[0008] 本発明の目的は、例えば、モバイル・マッピング・システム上に配置されているために、移動しながら画像を撮影する1つ以上のカメラによって撮影された一連の画像内に存在する物体を正確に検出することを可能にするシステム及び方法を提供することである。]
[0009] 上記目的を達成するために、本発明は、プロセッサと、プロセッサに接続された、プロセッサに以下の動作を実行させるためのデータ及び指示を含むコンピュータ・プログラムを含むメモリとを備えるコンピュータ装置を提供する。コンピュータ・プログラムは、前記プロセッサに、
・モバイル・システムに搭載された位置判定装置からの時間データ及び位置データと、前記モバイル・システムに搭載された少なくとも第1の距離センサからの第1の距離センサデータと、前記モバイル・システムに搭載された少なくとも1つのカメラからの画像データとを受信する動作と、
・前記第1の距離センサデータ内で、少なくとも1つの物体に関連する第1の点群を識別する動作と、
・前記物体に関連し、かつ、前記第1の点群に基づくマスクを生成する動作と、
・前記少なくとも1つのカメラからの前記画像データ内に存在するのと同一の前記物体に関連する物体画像データ上に、前記マスクをマッピングする動作と、
・前記物体画像データの少なくとも一部分に対して、予め定められた画像処理技術を実行する動作とを実行させる。]
[0010] 位置データは、方位データを含んでもよい。]
[0011] 距離センサは、種々の物体に関連するそのような点群を提供する。物体が同一の場所に配置されないため、そのような点群の各々に関連する点は、どの物体に属すかに依存して、明確に異なる距離及び方位の少なくとも何れかを、距離センサに対して示す。従って、距離センサに対する距離のこれらの差異を使用することによって、種々の物体に関連するマスクが容易に生成される。そして、これらのマスクは、画像中の物体を識別するために、カメラによって撮影されるような画像に適用される。これは、これらの物体を識別する信頼性のある方法であり、画像データのみに依存するよりも容易である。]
[0012] そのような方法は、固定された世界に対して物体が移動していない場合に、非常に適切に機能することを示す。しかし、そのような物体は移動している可能性がある。その結果、そのような検出の精度は低下する。従って、一実施形態において、本発明は、上記で定義したようなコンピュータ装置に関連し、前記コンピュータ・プログラムは、前記プロセッサに、
・前記モバイル・システムに搭載された第2の距離センサから第2の距離センサデータを受信する動作と、
・前記第2の距離センサデータ内で、同一の前記少なくとも1つの物体に関連する第2の点群を識別する動作と、
・前記第1の点群及び前記第2の点群から、前記少なくとも1つの物体に関する動きベクトルを計算する動作と、
・前記動きベクトルを使用して前記物体画像データ上に前記マスクをマッピングする動作とを実行させる。]
[0013] 本実施形態において、当該システムは、画像が撮影された時の、物体の絶対位置及び絶対速度を判定し、物体の移動軌跡の短時間近似を使用する。すなわち、連続する画像の間の期間、及び連続する距離センサ走査の間の期間は非常に短いため、全ての動きはほとんど直線状であり、かつ、固定された世界に対して相対的に移動している物体を非常に正確に識別できるものと仮定できる。そのため、相隔てられ、かつ個別に方向付けられていることを理由として、物体の場所及び移動を識別するために容易に使用され得るデータを提供する、少なくとも2つの距離センサの距離センサ走査を使用する。先行技術から既知であるように、これにより、画像特性のみに基づいて移動物体を識別することに関連する問題が減少し、一連の画像の色画素特性に基づいて移動の軌跡を判定する。]
[0014] また、カメラ及びセンサをサポートしているMMSシステムの、絶対位置及び絶対速度を判定する非常に厳密な方法を使用する場合、カメラによって撮影される画像上に存在する、MMSシステムの近傍にある物体の少なくとも1つの点の、非常に厳密な絶対位置及び短時間軌跡の推定値を取得することも可能である。これにより、そのような画像の価値を高める画像画素の3D位置の再構成が可能になるとともに、車両の運転者によって見られるような、いわゆる道路に存在する物体の改良された再構成が可能になる。物体の主軸又は物体の基準点に近似させるために、画像フィルタリング技術が使用されるだけではなく、空間分離、実際のサイズ、サイズの変動等の空間的特徴が追加されてもよい。これにより、フィルタリングの価値が高まる。]
[0015] 3D空間要素を画像に追加することによって、すなわちz成分を画像中の物体に追加することにより、同一の色空間特性を有する物体(例えば、木々から遠く離れた近隣の低木)でさえも、効果的に分離される。]
[0016] 画素は(絶対)空間における場所と関連付けられる。そうすることにより、顔検出又は文字検出等の1つの画像解析及び画像フィルタリングの結果は、絶対空間への同一のマッピングを含む他の画像に容易に転送及び適用される。]
[0017] いくつかの例において、可読な特性を含まない1つの画像上でROI(Regions of Interest:着目領域)が選択され得るとともに、他の画像のROIにおいて同一の特性を判定するために使用される。例えば、2つ以上の異なる画像のROIは、空間において同一のROIにマッピングされ、第2の画像からの特性は、以前又は以降に撮影された画像に適用され得る。従って、距離センサの測定値を使用することによって、複数の画像に対して実行されるアルゴリズムに結び付けることができる。]
[0018] 本発明の原理は、レーザスキャナ、レーダ又はライダ等の、任意の種類の距離センサを使用して適用され得る。画像は、航空機等を含む任意の適切な車両に搭載される任意の種類のカメラによって撮影される。]
[0019] MMSシステム上のカメラは、同一シーンの重複部分を含む複数の画像をレンダリングするように、時間的に連続した画像を撮影してもよい。物体は、そのような重複部分において存在することにより、複数の画像に現れるだろう。画像フィルタリング技術は、本発明の方法を使用してそのような物体上に適用される場合、これらの画像のうちの1つ(一般に、最初に撮影された画像)の物体上にのみ適用される必要がある。その結果、画像処理された物体は、それが存在する全ての画像において使用される。これにより、演算時間が大幅に短縮される。]
[0020] 物体の速度がカメラの速度に対して相対的に速い場合、重要な要素は観測される物体のサイズである。なぜなら、両者の速度差が大きいほど、観測されるサイズは実際のサイズからより大きくずれるからである。そのため、距離センサデータを画像データ上にマッピングしたい場合、この影響は補正されなければならない。従って、更なる実施形態において、物体のサイズが短時間軌跡データから判定される。本実施形態において、物体の移動の軌跡に関する短時間近似によって、コンピュータ装置は、距離センサによって取得されるような、(高速な)移動物体に関連付けられた点群に対して、形状補正手順を適用することができる。その結果、そのような点群と、カメラにより撮影される画像中の物体との間の一致度がより良好となる。]
図面の簡単な説明

[0021] カメラ及びレーザスキャナを有するMMSシステムを示す図である。
場所パラメータ及び方位パラメータを示す図である。
屋根に2つのカメラ及び2つの距離センサを備える自動車を示す概略的な上面図である。
本発明を実現可能なコンピュータ装置を示す図である。
本発明の一実施形態に係る基本的な処理を示すフローチャートである。
非移動物体を示す図である。
図5の画像上で可視状態であるシーンと同一のシーンに関連する、距離センサのうちの1つによって取得される距離センサデータの一例を示す図である。
マスクを生成するために図6のデータがどのように使用され得るかを示す図である。
図5に示す画像中の物体を識別するために図7のマスクがどのように使用され得るかを示す図である。
図8に示す物体の画像をぼかした結果を示す図である。
カメラのうちの1つによって撮影される画像の一例を示す図である。
図10の画像上で可視状態であるシーンと同一のシーンに関連する、距離センサのうちの1つによって取得される距離センサデータの一例を示す図である。
マスクを生成するために図11のデータがどのように使用され得るかを示す図である。
図10に示す画像中の物体を識別するために図12のマスクがどのように使用され得るかを示す図である。
本発明の一実施形態に係る基本的な処理を示すフローチャートである。


連続的な瞬間における、1つのカメラ及び2つの距離センサを備える自動車に対する物体の相対的な位置を示す図である。
物体の距離センサ測定点の群を示す図である。
物体の質量中心を計算するためのモデルにおいて使用される円筒を示す図である。
異なる方向に向けられる2つの距離センサを示す図である。
図12に示すマスクと、物体の速度の推定値とを使用して、移動物体が画像内でどのように識別されるかを示す図である。
マスクによって識別される物体を示す図である。
図20に示す物体の画像をぼかした結果を示す図である。
移動物体の実際のサイズ及び形状がどのように判定され得るかを示す図である。] 図10 図11 図12 図20 図5 図6 図7 図8
実施例

[0022] 本発明の実施形態を示すことのみを意図し、かつ本発明の範囲を限定することは意図していないいくつかの図面を参照して、本発明を詳細に説明する。本発明の範囲は、添付の特許請求の範囲で定められるとともに、技術的な均等物によって定められる。]
[0023] 本発明は、主に、モバイル・マッピング・システム(MMS)上のカメラにより撮影される画像を処理する分野に関するものである。特に、いくつかの実施形態において、本発明は、そのような画像又はそのような画像中の(移動)物体の識別を向上させること、及びこれらの画像中の個人機微データを削除することに関するものである。しかし、添付の特許請求の範囲の範囲内に含まれる他の応用例が、除外されることはない。例えば、カメラは、航空機等の任意の他の適切な車両に搭載されてもよい。]
[0024] 図1は、自動車1の形態をとるMMSシステムを示す。自動車1は、1つ以上のカメラ9(I)(I=1, 2, 3, ... I)、及び1つ以上のレーザスキャナ3(j)(j=1, 2, 3, ... J)を備える。本発明に関連して、移動物体が識別される必要がある場合、少なくとも2つ以上のレーザスキャナ3(j)からの情報が使用される。自動車1は、着目道路に沿って、運転者によって走行され得る。レーザスキャナ3(j)は、いくつかの方位の集合について、レーザセンサとレーザセンサによって感知される物体との距離を検出できる任意の種類のレーザセンサにより置換されてもよい。そのような別の距離センサは、例えばレーダセンサ又はライダセンサであってもよい。レーダセンサが使用される場合、その距離及び方位測定データは、レーザスキャナで取得されるものと比較可能でなければならない。] 図1
[0025] 用語「カメラ」は、本明細書において、例えばLadybug(登録商標)を含む任意の種類の画像センサを含むものとして理解されよう。]
[0026] 自動車1は複数の車輪2を備える。更に、自動車1は、高精度の位置/方位判定装置を備える。そのような装置は、自動車1の位置及び方位に関する6自由度のデータを提供する。図1に一実施形態を示す。図1に示すように、位置/方位判定装置は以下の構成要素を含む。
・アンテナ8に接続され、複数の衛星SLk(k=1、2、3、...)と通信するとともに、衛星SLkから受信される信号から位置信号を計算するGPS(全地球測位システム)ユニット。GPSユニットはマイクロプロセッサμPに接続される。マイクロプロセッサμPは、GPSユニットから受信するデータを時間の関数として格納する。そのようなデータは、更なる処理のために、外部のコンピュータ装置に送出される。一実施形態において、マイクロプロセッサμPは、GPSユニットから受信された信号に基づいて、自動車1のモニタ4上に表示すべき適切な表示信号を判定し、自動車が配置されている場所と、可能であれば自動車が走行している方向とを、運転者に通知してもよい。
・DMI(距離測定計器)。この計器は、複数の車輪2のうちの1つ以上に関する回転数を検知することによって、自動車1が移動した距離を測定する走行距離計である。DMIは、更に、マイクロプロセッサμPに接続される。マイクロプロセッサμPは、DMIから受信するデータを時間の関数として格納する。そのようなデータも、更なる処理のために外部のコンピュータ装置に送出される。一実施形態において、マイクロプロセッサμPは、GPSユニットからの出力信号から表示信号を計算する際に、DMIによって測定された距離を考慮する。
・IMU(慣性測定ユニット)。このIMUは、3つの直交方向に沿った、回転加速度及び3つの並進加速度を測定する3つのジャイロユニットとして実現可能である。IMUは、更に、マイクロプロセッサμPに接続される。マイクロプロセッサμPは、IMUから受信するデータを時間の関数として格納する。そのようなデータも、更なる処理のために外部のコンピュータ装置に送出される。] 図1
[0027] 図1に示すシステムは、例えば、自動車1上に取り付けられた1つ以上のカメラ9(i)を用いて画像を撮影することによって、地理的データを収集する。(複数の)カメラは、マイクロプロセッサμPに接続される。また、レーザスキャナ3(j)は、自動車1が着目道路に沿って走行している間にレーザサンプルを取得する。従って、レーザサンプルは、これらの着目道路に関連付けられる環境に関連するデータを含み、建造物のブロック、木、交通標識、駐車車両、人物等に関連するデータを含んでもよい。] 図1
[0028] レーザスキャナ3(j)もまた、マイクロプロセッサμPに接続され、これらのレーザサンプルをマイクロプロセッサμPに送出する。]
[0029] 一般に、3つの測定ユニット、すなわちGPS、IMU及びDMIから可能な限り正確な場所及び方位の測定値を提供することが望まれる。これらの場所及び方位データは、(複数の)カメラ9(i)が画像を撮影し、かつレーザスキャナ3(j)がレーザサンプルを取得している間に測定される。画像及びレーザサンプルの双方は、後で使用するため、これらの画像及びレーザサンプルの取得時おける、自動車1の、対応する場所及び方位データと関連付けて、マイクロプロセッサμPの適切なメモリに格納される。GPS、IMU、DMI、(複数の)カメラ9(i)、及びレーザスキャナ3(j)からの全てのデータを、遅れることなく相互に関連付ける別の方法は、これらの全てのデータをタイムスタンプし、当該タイムスタンプされたデータを、マイクロプロセッサのメモリ内の他のデータとともに格納することである。他の時刻同期マーカが代わりに使用されてもよい。]
[0030] 画像及びレーザサンプルは、例えば、建造物のブロックの正面に関する情報を含む。一実施形態において、(複数の)レーザスキャナ3(j)は、当該方法に関して十分に密な出力を生成するために、最小の50Hz及び1度の解像度の出力を生成する。SICK(登録商標)によって製造されたMODEL LMS291-S05等のレーザスキャナは、そのような出力を生成できる。]
[0031] 図2は、図1に示す3つの測定ユニットであるGPS、DMI及びIMUから取得可能な位置信号を示す。図2は、マイクロプロセッサμPが、6つの異なるパラメータ、すなわち所定の座標系の原点に対する3つ距離パラメータx、y、zと、それぞれx軸、y軸及びz軸を中心とする回転を示す3つの角度パラメータωx、ωy及びωzとを計算することを示す。z方向は、重力ベクトルの方向と一致する。] 図1 図2
[0032] 図3は、2つの距離センサ3(1)、3(2)(レーザスキャナであってもよいが、あるいはレーダ等であってもよい)及び2つのカメラ9(1)、9(2)を有するMMSを示す。2つの距離センサ3(1)、3(2)は、自動車1の走行方向から見て自動車1の右側を向くように自動車1の屋根上に配置される。距離センサ3(1)の走査方向はSD1で示され、距離センサ3(2)の走査方向はSD2で示される。カメラ9(1)も右側を見ており、すなわち、カメラ9(1)は、自動車1の走行方向に対して垂直方向に向けられてもよい。カメラ9(2)は走行方向を見ている。この設定は、車両が右側車線を走行する全ての国に適している。車両が道路の左側を走行する国に関しては、当該設定は、カメラ9(1)及びレーザスキャナ3(1)、3(2)が自動車の屋根の左側上に方向に配置される(ここでも、「左」は自動車1の走行方向に対して規定される)という意味で、変更されることが好ましい。多くの他の構成が、当業者によって使用されてもよいことは理解されるであろう。] 図3
[0033] 自動車1のマイクロプロセッサは、コンピュータ装置として実現されてもよい。そのようなコンピュータ装置の一例を図4aに示す。] 図4a
[0034] 図4aにおいて、算術演算を実行するプロセッサ11を備えるコンピュータ装置10の概略を示す。] 図4a
[0035] プロセッサ11は、ハードディスク12、読み出し専用メモリ(ROM)13、電気的に消去可能なプログラマブル読み出し専用メモリ(EEPROM)14、及びランダムアクセスメモリ(RAM)31を含む、複数のメモリ要素に接続される。必ずしもこれらメモリの種類の全てを設ける必要はない。更に、これらのメモリ要素は、プロセッサ11に物理的に近接して配置される必要はなく、プロセッサ11から距離を離して配置されてもよい。]
[0036] プロセッサ11は、ユーザが命令、データ等を入力する手段、例えばキーボード16及びマウス17にも接続される。当業者には既知であるタッチスクリーン、トラックボール及び、音声変換器のうちの少なくとも何れかのような、他の入力手段が更に設けられてもよい。]
[0037] プロセッサ11に接続された読取ユニット19が設けられる。読取ユニット19は、フロッピディスク20又はCD−ROM12等のデータ記憶媒体からデータを読み取るとともに、場合によってはそれらにデータを書き込む。他のデータ記憶媒体は、当業者に既知のテープ、DVD、CD−R、DVD−R、メモリスティック等であってもよい。]
[0038] プロセッサ11は、紙上に出力データを印刷するためのプリンタ23と、例えばモニタ又はLCD(液晶ディスプレイ)画面といったディスプレイ18とに接続されてもよく、あるいは、当業者に既知である他の任意の種類のディスプレイに接続されてもよい。]
[0039] プロセッサ11は、拡声器29に接続されてもよい。]
[0040] プロセッサ11は、I/O手段25によって、公衆交換電話網(PSTN)、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)、インターネット等の通信ネットワーク27に接続されてもよい。プロセッサ11は、ネットワーク27を介して他の通信装置と通信し得る。これらの接続は、車両が道路を移動しながらデータを収集する際に、全てリアルタイムで接続されなくてもよい。]
[0041] データ記憶媒体20、21は、プロセッサに本発明による方法を実行する能力を提供するデータ及び命令の形態のコンピュータ・プログラム製品から成るものであってもよい。しかしながら、そのようなコンピュータ・プログラム製品は、電気通信ネットワーク27を介してダウンロードされてもよい。]
[0042] プロセッサ11は、独立型システムとして実現されてもよく、各々がより大きなコンピュータ・プログラムのサブタスクを実行する複数の並列プロセッサとして実現されてもよく、又は、複数のサブプロセッサを有する1つ以上のメインプロセッサとして実現されてもよい。本発明の機能性の一部は、ネットワーク27を介してプロセッサ11と通信するリモートプロセッサによって実行されてもよい。]
[0043] コンピュータ装置が自動車1に適用される場合、図4aに示す全ての構成要素を有する必要はないことは明らかである。例えばコンピュータ装置は、拡声器及びプリンタを有する必要はない。自動車1で実現するのと同様に、コンピュータ装置は、少なくともプロセッサ11と、適切なプログラムを格納するための任意のメモリと、オペレータから命令及びデータを受信するとともに出力データをオペレータに示すための、任意の種類のインタフェースとを必要とする。] 図4a
[0044] (複数の)カメラ9(i)、(複数の)レーザスキャナ3(j)、及び位置/方位測定装置によってそれぞれ取得された画像データ、走査データ、並びに、格納された位置及び方位データを後処理するために、図4aの装置と同様の装置が使用されるが、これは、オフラインの後処理のために、自動車内ではなく建造物内に配置されるのが好都合である。(複数の)カメラ9(i)、(複数の)スキャナ3(j)、及び位置/方位測定装置によって取得された画像データ、走査データ、及び位置/方位データは、複数のメモリ12〜15のうちの1つに格納される。これは、始めにDVD、メモリスティック等にそれらを格納するか、又は場合によってはメモリ12、13、14、15から無線でそれらを送信することによって行なわれる。全ての測定値もタイムスタンプされることが好ましく、これらの種々の時間測定値も格納される。] 図4a
[0045] 本発明の一実施形態において、図1に示す装置は、カメラ9(i)により撮影される画像中の特定の物体を区別できなければならない。画像が撮影された時のそれらの絶対位置、及びオプションとしてそれらの絶対速度は、可能な限り正確に判定されなければならない。例えば、それらは、処理された部分が閲覧者にはっきりと見えないようにするよう、少なくともそれらの部分を処理するために、識別される必要がある。例えば、そのような部分は、人間の顔、自動車のナンバープレートの番号、掲示板の政治的表現、商業広告、商標名、著作権で保護されている物体の認識可能な特徴等に関連してもよい。画像の処理中における1つの動作は、カメラ9(i)によって撮影される画像内の、建造物の正面に関連するデータを無視することであってもよい。すなわち、建造物の正面に関連するデータは、最終的なアプリケーションにおいて変更されないままである。そのような建造物の正面がどこであるかに関する場所データは、同時係属の特許出願PCT/NL2006/050264において説明され且つ請求される方法を使用することによって取得され得る。当然ながら、建造物の正面の場所を識別する他の技術が、本発明の範囲内で使用されてもよい。そのような建造物の正面のデータが削除される場合、個人機微データを削除することは、モバイル・マッピング・システムとそのような正面との間に存在する物体にのみ関連するであろう。] 図1
[0046] そのような物体は、固定された世界に対して相対的に移動していてもよい。そのような移動物体は、人物及び自動車であってもよい。画像中の移動物体を識別することは、固定物体を識別することよりも難しいであろう。1つのレーザスキャナ3(j)のみを使用することによって、非移動物体を識別し、かつそれらを画像に適切にマッピングすることは可能であるが、画像内で移動物体を適切に識別し、かつそれらの部分を処理することは非常に困難である。従って、特定の速度を有する物体に関連する実施形態において、本発明は、1つ以上のカメラ9(i)及び2つ以上のレーザスキャナ3(j)を有するMMSに関連する。このため、異なる2つのレーザセンサ3(j)から生成される同一の物体に関する2つの点群は、物体の位置を時間の関数として推定するために使用される、移動物体の短時間軌跡を判定するために使用される。そのような時間の関数としての物体の位置の推定値は、レーザスキャナデータも収集された期間に(複数の)カメラ9(i)によって収集された、画像内の物体を識別するために使用される。]
[0047] 図4aに示すコンピュータ装置は、本発明に従って特定の機能性を提供するようにプログラムされる。本発明は、少なくとも2つの側面、すなわち、非移動物体に関連する機能性と移動物体に関連する機能性とをカバーする。非移動物体に関連する機能性は、図4bに示すフローチャートに要約され、移動物体に関連する機能性は、図14に示すフローチャートに要約されている。] 図14 図4a 図4b
[0048] まず、図4bは、コンピュータ装置10上で実行される本発明の基本的な動作を示すフローチャートである。図4bの動作を詳細に説明する前に、それらについてここで簡単に言及する。] 図4b
[0049] 動作30において、コンピュータ装置10は、複数の距離センサ3(i)及び複数のカメラ9(j)からデータを受信するとともに、MMSに搭載された位置/方位判定装置から位置/方位データ及び時間データを受信する。]
[0050] 動作32において、プロセッサは、距離センサ3(i)から取得されるデータにおいて、図5に示す自動車のような種々の物体を識別する。] 図5
[0051] 動作36において、コンピュータ装置10は、距離センサデータからのデータに基づいて、1つ以上の物体に対するマスクを生成する。]
[0052] 動作38において、コンピュータ装置10は、測定値の異なる時間及び場所、並びに物体の移動も考慮して、1つ以上のカメラ9(j)によって撮影される画像内における対応する物体上に、これらのマスクをマッピングする。]
[0053] 動作40において、コンピュータ装置10は、その物体内の個人機微データを判読不能にするように、マスクによって示される枠内で、当該画像の少なくとも一部分を処理する。]
[0054] 次に、これらの動作の各々について更に詳細に説明する。そのために、図5〜図9を参照する。図5は、いくつかの自動車を含む画像を示す。図5の画像は、カメラ9(2)で撮影されている。点線の矩形内に存在する第1の可視状態の自動車は、細部がはっきりと可視状態であるナンバープレートを有する。そのような細部は、プライバシーの観点から削除されなければならない。コンピュータ装置10上で動作するプログラムは、物体を識別し、又は、一実施形態においては、個人機微情報に関連する可能性があり、かつ処理されるべき物体内の部分を識別する。図5の場合、当該プログラムは、自動車全体又はナンバープレートを識別するとともに、画像内において当該自動車全体又は当該ナンバープレートが判別不能になるようにそれを処理する。図6〜図9は、これがどのように行なわれ得るかを説明する。] 図5 図6 図7 図8 図9
[0055] 図6は、図5に示すシーンと同一のシーンであるが、距離センサ3(1)によって撮影される画像を示す。距離センサの走査点は、距離センサ3(1)と自動車との間の距離に関連する距離データを含む。] 図5 図6
[0056] 図4bの動作30に示すように、図5及び図6に示すデータは、コンピュータ装置10に送信される。これらの図5及び図6に示すデータとは別に、時間の関数としての場所及び方位データであって、かつMMSに搭載される位置判定/方位装置によって取得される場所及び方位データは、コンピュータ装置10に送信される。これは、位置判定/方位装置の位置に対する、(複数の)カメラ9(i)及び(複数の)距離センサ3(j)の相対的な位置についても適用される。動作30におけるコンピュータ装置10へのデータの送信は、例えば、自動車1のMMSによって取得されるデータの無線送信を介して、あるいは、DVD、Blu Rayディスク、メモリスティック等の中間媒体を介して、任意の既知の方法で実行されてもよい。] 図4b 図5 図6
[0057] 動作32において、物体は、距離センサデータにおいて識別される。コンピュータ装置10は、正面予測方法、すなわち建造物の正面が配置される場所を識別する方法を適用することが好ましい。上述のように、そのような建造物の正面がどこであるかに関する場所データは、同時係属の特許出願PCT/NL2006/050264において説明され且つ請求される方法を使用することによって取得され得る。当然ながら、建造物の正面の場所を識別する他の技術が、本発明の範囲内で使用されてもよい。そのような場合、(複数の)カメラ9(i)によって撮影される画像内の、建造物の正面に関連するデータは、これらの画像から個人機微データを削除する等の任意の更なる処理から無視されてもよい。また、地面に関連するデータは簡単な方法で削除され得る。例えば、コンピュータ装置10は、MMSが地面の上を移動しており、それにより(複数の)カメラ9(i)及び(複数の)距離センサ3(j)との関係で地面がどこであるかを見分けるという事実を使用してもよい。従って、地面は、MMSが移動する平面として近似され得る。要望に応じて、斜面測定値が考慮されてもよい。モバイル・マッピング・システムとそのような正面との間で静止した物体及び移動中の物体は、画像画素を適切な空間位置にマッピングできる(複数の)距離センサ3(j)によって取得される点群において発見され得る。]
[0058] 距離センサデータは、モバイル・マッピング・システムに対する、物体の画像点の相対的な位置を判定する写真測量方法を強化するプロセッサによって使用され得ることが認識される。そのような動作において、移動物体は静止物体と同様に検出される。また、そのような移動物体がたどる軌跡も推定され得る。]
[0059] 当該プログラムは、距離センサデータにプレフィルタリング処理を適用して着目の物体を識別することが好ましい。これは、より適切且つ効率的であるとともに、物体に関連する距離センサデータが、一般に、同一の物体に関連するカメラ画像データよりも少ないデータを含むため、必要な処理時間を短縮する。当該プレフィルタリング処理は、物体の動的な特徴と、物体のサイズ及び物体の位置特徴の少なくとも何れかとに基づいてもよい。この結果、更なる処理を必要とする1つ以上の選択される物体が得られてもよい。そのような更なる処理は、同一の物体のカメラ画像データに対して実行されるとともに、例えば、文字及び人間の顔の少なくとも何れかに関連する画像内の部分を識別するための、任意の既知のシーン分解技術を含んでいてもよい。そのような画像検出技術は、従来技術から既知であるため、本明細書で更に説明する必要はない。例としては、クラスタリング及びRANSACの少なくとも何れかに基づく探索モデルである。]
[0060] 距離センサの走査点は、距離センサ3(1)と図10の自動車との間の距離に関連する距離データを含む。コンピュータ装置10は、自動車の場所及び速度ベクトルを時間の関数として識別するために、このデータ及び他の収集された測定値に基づいて、距離センサの走査点を処理し得る。動作36に示すように、コンピュータ装置10は、図5の画像において個人機微データが存在しない状態にするため、位置が(複数の)カメラ9(i)によって収集される画像からの点と関連付けられて、図10に示す画像において自動車をぼかすために使用されるマスクを生成する(又は、任意の他の適切な画像処理技術を実行する)ように、時間によりパラメータ化される物体の3D軌跡を判定する。当該マスクの位置は、カメラ9(2)の画像に対する場所に関して変化する自動車に関連する距離センサの走査点の位置と一致するだろう。そのようなマスクを図7に示す。] 図10 図5 図7
[0061] 動作38において、コンピュータ装置10は、図5に示すように、このマスクを画像上にマッピングする。図8に示すように、コンピュータ装置10は、図5の画像において自動車の枠を確立するためにマスクをこのように使用する。] 図5 図8
[0062] 動作40において、コンピュータ装置10は、その枠内において、任意の所望の画像処理技術を実行して、その枠内の自動車に関して任意の所望の結果を得る。例えば、十分な重複する画像がある場合、又は物体が完全に見えない状態でシーンが再生されるように考慮されるシーンに関する他の情報がある場合、そのような自動車(又は任意の他の物体)を当該画像から完全に削除することが可能である。従って、本実施形態において、コンピュータ装置10は、画像データに含まれる物体の画像データを削除し、カメラ9(2)により撮影されるシーンに含まれる物体の当該画像データを、当該物体が存在しなかった場合にカメラ9(2)によって可視状態だったであろうデータに置き換える。]
[0063] 別の画像処理技術は、個人データが可視状態でなくなるように、その物体に関連する画像をぼかすことである。これを図9に示す。しかしながら、画像の少なくとも一部分を不可視状態/認識不可能にする効果を有する他の画像処理技術、例えば、その部分の焦点をぼかす技術(例えば、http://www.owlnet.rice.edu/~elec431/projects95/lords/elec431.html を参照)、又は個人の詳細を何ら示さない標準的な画像部分でその部分を置換する技術が、使用されてもよい。例えば、完全な自動車は、ナンバープレートを有さない標準的な自動車の画像に置き換えられてもよい。あるいは、ナンバープレートが自動車の画像内で識別されている場合、当該ナンバープレートは、単にぼかされるてもよいし、単なる白いプレート又は非個人的なナンバープレートの番号を有するプレートに置き換えられてもよい。「Pixelat」は、使用に適した代替的な技術であり、ビットマップの画素を矩形又は円形のセルに分割するとともに、選択された効果に依存してこれらのセルを最小画素値、最大画素値、又は平均画素値で埋めることによって画像を再現する(情報源:http://www.leadtools.com/SDK/Functions/Pixelate.htm)。] 図9
[0064] 一実施形態において、プロセッサ11は、個人機微データ又は他の削除されるべきデータを含む物体内における、サブ物体を識別するために、画像処理解析技術を使用する。例えば、プロセッサ11上で動作するプログラムは、眼、耳、鼻等の顔の特徴を探索することで人物の顔を識別し得る。それを行うためのプログラムは、例えば、Intel(登録商標)画像処理ライブラリにおいて入手可能であるように、市場で入手可能である。あるいは又は更に、プロセッサ11上で動作するプログラムは、文字を含む部分を識別し得る。それを行うためのプログラムもまた入手可能であり、例えば、Microsoft(登録商標)は、本明細書において使用可能な画像処理ライブラリを提供する。他の技術は、http://www.merl.com/reports/docs/TR2004-043.pdf、http://www.robots.ox.ac.uk/~cvrg/trinity2003/schneiderman_cvpr00.pdf を参照する http://en.wikipedia.org/wiki/face_detection で見つけられる。]
[0065] あるいは又は更に、プロセッサ11上で動作するプログラムは、文字を含む部分を識別し得る。それを行うためのプログラムも市場で入手可能であり、例えば、本明細書において使用可能な画像処理ライブラリは、http://en.wikipedia.org/wiki/Optical_character_recognition で提供される。(文字を含む)自動車のナンバープレートを認識するプログラムは、やはり存在する。このようにして、削除したいか又はぼかしたいナンバープレート及び広告が識別される。削除したいか又はぼかしたい個人機微データは、個人の電話番号に関連してもよい。]
[0066] (複数の)カメラ9(j)は、MMSの周囲の画像を連続して撮影することが認識される。この結果、多くの場合、シーンの重複する部分を含む複数の連続画像が得られる。従って、それらにおいて同一の物体を有する複数の画像が存在するであろう。本発明の利点は、これらの全ての画像において物体がどこに存在するかに関する情報を提供することである。画像処理技術は、それらの全ての画像中の同一の物体に適用する代わりに、これらの画像のうちの1つの画像(一般に、最初に撮影された画像)の物体に1回だけ適用される必要がある。その後、当該処理された物体は、あらゆる他の画像においても使用され得る。これにより、処理時間が短縮される。N個の物体が、識別され、かつK個の連続画像において処理される必要がある場合、本発明を使用することによって、すなわち、コンピュータ装置10によって距離センサデータに対して実行されるように、これらのN個の物体についての物体解析がたった1回で済む。コンピュータ装置10は、K個全ての連続画像について、この処理を繰り返す必要はない。]
[0067] 図5〜図9の例において、自動車は、道路に沿って駐車された静止状態の物体である。これらの図に示す画像は、前方撮像カメラ9(2)によって撮影された画像の右側部分である。物体は、一度識別されると、認識可能であってはならない情報を修正するように処理される。図10〜図21は、固定された世界に対して相対的に移動している物体が存在する別の例に関するものである。ここでも、これらの図に示す画像は、前方撮像カメラ9(2)によって撮影された画像の右側部分である。この例は、MMSが追い越す際にシーンに存在する歩行者、すなわちカメラ9(2)によって撮影される画像に存在する歩行者に関するものである。少なくともその人物の顔に関連する画像中の部分が認識不可能であるように、すなわちその人物のプライバシーが保護されるように、その人物は、その部分を処理するために識別される必要がある。] 図10 図11 図12 図13 図14 図15a 図15b 図15c 図16 図17
[0068] 図10は、自動車1の前方上のカメラ9(2)によって撮影された人物の画像を示す。カメラ9(2)は、距離センサ3(1)、3(2)の何れよりも早く人物の画像を撮影する。例えば、距離センサ3(1)も、わずかに遅れてではあるが人物を感知している。図11は、距離センサ3(1)によって検出される走査点を示す。これらの走査点のうちの一部は、図10においても可視状態である人物に関連する。図10と図11とを比較することによって、図10の人物の画像と、図11に示す同一の人物に関連する距離センサの点との間に、ずれがあることが示される。] 図10 図11
[0069] 距離センサの走査点は、距離センサ3(1)と人物と間の距離に関連する距離データを含む。コンピュータ装置10は、これに基づいて、及び他の収集済み測定値に基づいて、距離センサの走査点を処理して、人物が人がどこに存在するかを識別する。図10の画像において個人機微データがもはや存在しない状態にするために、コンピュータ装置10は、静止物体について、物体のレーザスキャナの点を、カメラ9(2)によって収集される画像内で見られる同一の位置に合わせて、図10に示す画像から人物を消去するために使用され得るマスクを生成する(又は、任意の他の適切な画像処理技術を実行する)。当該マスクの位置は、カメラ9(2)の画像に変換されるような人物に関連する、距離センサの走査点の位置と一致する。そのようなマスクを図12に示す。しかしながら、(この場合は人物である)物体が移動していた場合、コンピュータ装置10は、距離センサの走査点に基づいて人物に関する情報を消去するであろうし、当該人物の一部分(すなわち、左側部分)は、当該画像上に依然として存在するであろう。これを図13に示す。これは、人物がカメラ画像の時間とレーザ走査の時間との間で移動しているためである。] 図10 図12 図13
[0070] 距離センサデータと画像データとの間に直接的な関連付けを提供するように、レーザスキャナと並べて配置され、かつ同期化されるカメラを有するシステムが、実証されていることが認識される。そのようなシステムは、例えば以下のウェブサイト、
http://www.imk.fhg.de/sixcms/media.php/130/3d_cameng/pdf、及び
http://www.3dvsystems.com/technology/3D%20Camera%20for%20Gaming-1.pdf
において示されている。市場における他のシステムは、特別な赤外線カメラからの画像を、一般的なCCDセンサから取得するデータとマージすることによって、z距離増補型カメラの画像を含む。しかしながら、そのようなシステムは、低解像度かつ高価である。本発明は、移動物体についてのより一般的な解決策に関するものであり、推定された短時間軌跡を使用して、物体の動きに合わせて調整することによって、カメラからの画像に対する、距離センサからの点群の適切なマッピングを更に得る。]
[0071] 従って、距離センサデータに基づいてそのようなマスクを生成することだけでなく、カメラが物体を撮影した時間と複数の距離センサ3(j)のうちの1つが物体を走査した時間との間に、複数のカメラ9(i)のうちの少なくとも1つによって撮影された少なくとも1つの画像において、可視状態である物体の移動量及び移動方向を規定する移動軌跡データを判定することが望ましい。以下では、少なくとも2つの距離センサ9(i)を使用することで、そのような動きベクトルがどのように判定され得るかを説明する。以下の説明において、関連する短時間スケールを考慮して、物体の動きは直線状であると仮定する。しかしながら、本発明は本実施形態に限定されない。物体の動きは、あるいは、例えばそのような軌跡が、3つ以上の距離センサ3(j)によって生成される走査値によって判定される、非直線状の軌跡として推定されてもよい。
。]
[0072] まず、図14は、コンピュータ装置10上で実行される本発明の基本的な動作を示すフローチャートである。図14に示す方法の動作は、図4bに示すものとほぼ同一であり、異なるのは動作32と動作36との間における方法の動作34である。動作34において、1つ以上の移動物体についての動きベクトルが、コンピュータ装置10によって計算される。また、動作38において、コンピュータ装置10は、測定値に関する異なる位置、及び物体の移動も考慮して、1つ以上のカメラ9(j)によって撮影される画像内の対応する移動物体上に、動作36で生成されるマスクをマッピングする。] 図14 図4b
[0073] 次に、特に動作34を更に詳細に説明する。]
[0074] 動作30及び動作32については、図4bを参照して上述した。] 図4b
[0075] 動作34において実行されるように、物体についての動きの軌跡を計算する場合、移動物体が、それが複数のカメラ3(j)のうちの1つによって撮影された時間と2つ以上の距離センサ9(i)のうちの2つ以上によって感知された時間との間で、移動速度及び移動方向を変化させることはないと、仮定される。従って、動きベクトルは、その時間中、実質的に一定であると仮定される。連続する画像間及び連続する走査間に含まれる短い期間を考慮すると、非常に良好な近似である「短時間軌跡近似」が使用されると言える。従って、動きベクトルの大きさ及び方向は、異なる2つの距離センサ9(i)からの連続的な走査から動きベクトルを判定することによって、推定され得る。]
[0076] 別の実施形態においては、3つ以上の距離センサが使用されてもよいことが認識される。そのような場合、3つ以上の距離センサ走査が、物体の移動を識別するために使用される結果、2つの距離センサを使用して取得されるよりも高次の、物体の移動に関する軌跡の近似が得られる。]
[0077] 物体が移動しており、かつ、最初に距離センサ3(1)によって走査され、その後距離センサ3(2)によって走査された場合、物体の位置は、両走査間で異なる必要がある。これを図15a、図15b、図15cに概略的に示す。図15aにおいて、物体は、時間t1で距離センサ3(1)によって確認される。図15bにおいて、物体は、時間t1より後の時間t2において、カメラ9(1)の視野においてのみ、複数の距離センサ3(i)の何れかによって確認される。図15cにおいて、物体は、時間t2より後の時間t3において、距離センサ3(2)の視野の中にある。] 図15a 図15b 図15c
[0078] 図15a及び図15cは、複数の距離センサ3(i)が100%の精度で物体の場所を識別できないことを示す「位置の不確定性」領域を示すことが認識される。これは、レーザスキャナ等の距離センサが物体を複数回走査して識別する必要があるためである。これにはある程度の時間を要する。この期間、物体は移動してもよい。以下で図22を参照して説明するように、高速な移動物体は、実際よりも大きく検出される可能性がある。動きを識別するために質量中心の概念を使用すると、誤りを招く可能性があるが、その誤りは、以下で説明する形状訂正技術によって訂正され得る。] 図15a 図15c 図22
[0079] 以下では、物体の動きベクトルを導出するために、コンピュータ装置10によって距離センサ走査データがどのように使用されるかについて説明する。これを導出することによって、コンピュータ装置10は、物体の速度及び物体の位置を計算できる。当該問題は、道路上のほとんどの物体が平面上のみを移動すると仮定されるために、2Dのみであると仮定される。当然ながら、本発明の原理は、「飛行」物体、すなわち、地面に接触せずに移動する物体を含むように拡張され得る。]
[0080] 距離センサ3(1)によって走査される第1のシーンは、距離センサ3(2)によって走査される第2のシーンと比較される。物体が移動している場合、第2のシーンの位置は、第1のシーンの位置と同一となり得ない。]
[0081] 2つの距離センサの点群の走査の比較は、以下のようにコンピュータ装置10によって実行されてもよい。まず、コンピュータ装置10は、点群の集合間の差異を表す点群の2つの集合を、
DIFF1 = scan1 - scan2
DIFF2 = scan2 - scan1
のように計算する。ここで、
scan2 = 第2の距離センサ3(2)の走査における点群
scan1 = 第1の距離センサ3(1)の走査における点群
である。]
[0082] この集合の演算を実行する前に、点群の複数の点は、適切な位置と関連付けられることが認識される。次に、当該等式を解くことにより、2つの異なる瞬間における、移動物体を表す点群に関する2つの集合が提供される。実際には移動物体は空間的に分離しているために、点群のこれら2つの集合の対応する部分も空間的に分離していることによって、コンピュータ装置10は、分離した移動物体を表す点の集合に、それらを効率的に分解できる。DIFF1及びDIFF2の両方においてこれらの演算を適用することによって、コンピュータ装置10は、同一の物体を表す点群の2つの集合を得る。]
[0083] 当業者に既知である任意の分解技術が適用されてもよい。一般に、以下の技術が使用されてもよい。第1の距離センサ3(1)の距離センサ走査における点群は、各点群が単一の物体に関連する個別の点群に分離される。そうするために、平面絶対世界座標(plane absolute world coordinates)において同様の配置を有し、かつ、互いの距離の範囲内にある複数の点は、グループ化(クラスタ化)される。これは、走査における一連の位置及び距離センサへの距離の少なくとも何れかに依存して、点のグループ毎に適応的に判定され、他のグループに属する点への平均距離は、移動物体が空間的に分離されるために著しく異なる。]
[0084] 分解方法の結果として第1のシーン及び第2のシーンにおいて検出される物体は、両方のシーンにおいて同一の物体を発見するために、両方のシーンにおいて物体の特徴を比較することによって解析される。複数の点の各グループは、その形状に関して解析される。コンピュータ装置10は、各グループについて、例えば四角形、円筒、球体、平面等の特定の基本的な形状にグループが適合するかどうかを計算する。各グループについて、グループがそのような基本的な形状によって置き換えられるとともに、コンピュータ装置10は、当該基本的な形状に関する、高さ、直径、幅等の基本的な特徴を格納する。その後、コンピュータ装置10は、第2の距離センサ3(2)によって生成される走査について、同一の手順を繰り返す。次に、コンピュータ装置10は、両走査に存在する基本的な形状を比較することによって、2つの走査で検出された物体を比較することができ、それにより、両走査における異なる物体を一致させるか又は適合させる。]
[0085] これらの2つの集合において一致するペアを判定するために、種々の既知の技術がコンピュータ装置10によって使用される。例えば、3Dに拡張され得る、修正されたハウスドルフ距離測定が適用可能である(例えば、http://citeseer.ist.psu.edu/cache/papers/cs2/180/http:zSzzSzwww.cse.msu.eduzSzpripzSzFileszSzDubuissonJain.pdf/a-modified-hausdorff-distance.pdf を参照)。]
[0086] シーンにおける各物体は、全てのシーンに存在する特徴点を有する。物体の適切な特徴点は、例えば、そのような物体に属するものとして識別される点群の部分集合に基づいて計算され得る物体の範囲を定める、形状の質量中心である。物体の均整等を示す物体のいくつかの形状の特徴は、特徴点として追加されてもよい。物体が人物である場合、人物は、(人間の体の平均サイズに対応する直径及び高さを含む)円筒によって近似されてもよい。人物は人込みにおいて互いに非常に近接する可能性があるため、コンピュータ装置10は、その群集から個人を分離できない。従って、そのような群集は、単一の物体として解析されるであろう。この単一の物体において、個々の顔は検出され得ない。それでも、個人機微データは、そのような群集を示す画像から削除される必要があるであろう。これは、当該群集を全体的にぼかすことによって解決される。あるいは、当該群集に関連する画像部分を画素化(pixelized)してもよい。群集に関連する画像の顔部分をぼかす画像処理技術に続く更に別の方法として、群衆においてであっても、当該群集に関連する画像の顔部分を識別するために、上述のような顔検出技術が使用されてもよく、それらを任意の種類の標準の顔画像等によって置き換える。自動的な画像処理によって許容可能な結果が得られない場合、手動の画像処理が代わりに実行されてもよい。]
[0087] ほとんどの場合において、距離センサ3(1)による第1の走査において検出される基本的な形状を、距離センサ3(2)による第2の走査において検出される基本的な形状に適合することに関して、曖昧性はない。曖昧性が存在する場合、それは、画像部分(着目領域)において物体を一致させる候補に適用される物体認識技術を用いてこの方法を拡張すること、及び(複数の)カメラ9(j)によって撮影される各画像中の各物体のROIについての、色空間の画像特性を比較することによって解決され得る。曖昧性が依然として存在する場合、手動的な介入が適用されてもよい。]
[0088] そして、物体の絶対位置、すなわち、両シーンにおける質量中心の位置は、コンピュータ装置10によって判定される。以下では、図16及び図17を参照して、質量中心がどのように計算され得るかを説明する。] 図16 図17
[0089] 当業者には既知のように、物体の絶対位置は、MMSからも受信され、かつカメラ9(j)が画像を撮影した回数、及び距離センサ3(i)が走査した回数にリンクされた位置データから、任意の既知の方法で判定され得る。受信されたMMSデータから絶対位置を計算することは、国際特許出願PCT/NL2006/000552において詳細に説明される方法で、実行されてもよい。]
[0090] 物体についての動きベクトルは、第1のシーン及び第2のシーンにおける同一の物体の2つの絶対位置間の差異として、コンピュータ装置10によって計算される。シーンにおける物体の位置は、このシーンにおける物体の質量中心の位置に関連してもよい。動きベクトルは、物体の速度が急速に変化しなかったと仮定すると、物体の位置を随時計算するために、コンピュータ装置10によって使用されてもよい。この仮定は、期間t1 - t3において有効であり、この期間に近い時間においても有効である。上記において認識されるように、1つのシーンにおいて複数の移動物体が存在する場合、ある程度の曖昧性に起因して、何れの質量中心が何れの物体に関連するかを解析することになるであろう。上述のように、動きベクトルの計算を開始する際には、この曖昧性が解決されており、かつ例えば点群の特徴等を使用することによって全ての物体が識別されていると仮定される。]
[0091] 図15bの位置(x2, y2)は、以下の計算を使用してコンピュータ装置10によって算出される。] 図15b
[0092] コンピュータ装置10は以下のデータを使用する。
(x1, y1) =距離センサ3(1)から受信された自動車1に対する相対的な位置データから、コンピュータ装置10によって計算される、時間t1における物体の絶対位置、及び図1に示す位置判定装置から計算される、時間t1における自動車1の絶対位置データ。図2に示す位置判定装置を使用して自動車1の位置を計算する適切な方法を、国際特許出願PCT/NL2006/000552において説明するが、他の方法が使用されてもよい。
(x3, y3) = 距離センサ3(2)から受信された自動車1に対する相対的な位置データから、コンピュータ装置10によって計算される、時間t3における物体の絶対位置、及び図1に示す位置判定装置から計算される、時間t3における自動車1の絶対位置データ。
t1 = 物体が距離センサ3(1)によって感知された時間。この時間は、自動車1のマイクロプロセッサによって記録されており、後にコンピュータ装置10のメモリにも格納されている。
t2 = 物体がカメラ9(1)によって撮影された時間。この時間は、自動車1のマイクロプロセッサによって記録されており、後にコンピュータ装置10のメモリにも格納されている。
t3 = 物体が距離センサ3(2)によって感知された時間。この時間は、自動車1のマイクロプロセッサによって記録されており、後にコンピュータ装置10のメモリにも格納されている。] 図1 図2
[0093] 当該計算において、自動車1の速度は、期間t1 - t3の間、実質的に一定であることが仮定されている。]
[0094] コンピュータ装置10は、以下のように、時間t2における物体の位置(x2, y2)を計算する。その計算は、時間Δtの間に移動距離Δsから物体の速度Vを計算する一般的に既知の式から始まる。]
[0095] 速度Vは、物体に関連する動きベクトルであると考えられ得る。Vをx、y要素(Vx, Vy)に分解して、Δsをx、y要素Δsx、Δsyに分解して、Δtをt3-t1で置き換えることによって、以下の式が得られる。]
[0096] このことから、(x2, y2)は以下のように導出され得る。]
[0097] 上記のように計算される位置(xi, yi)は、当該物体の質量中心に関連する。当該質量は当該物体を超えて分散していること、及び当該物体の形状は実質的に変化していないことが、仮定される。そうでない場合、計算される質量中心は、実際には物体の中心である。動きベクトルを計算するために、これは重要ではない。]
[0098] 瞬間tiにおいて1つの特定の物体に関連する距離センサ3(i)からの全ての走査データは、測定点の「点群」を形成すると言えるであろう。図16はそのような点群を示す。(上述のような分解方法によって得られ、かつコンピュータ装置10によって実行される)1つの物体に関連する、走査された点の各々は、例えば、自動車1について規定される位置によって規定される、任意の原点からの距離riにおいて小さな円で示される。コンピュータ装置10は、そのような点群ごとに質量中心を計算する。図12に示すように、人間等の物体の場合、コンピュータ装置10はまた、その人間を近似する円筒を計算する。他の物体は、他の外部形状によって近似され得る。外部形状及び質量中心は、ともに物体の描写(description)を形成する。] 図12 図16
[0099] そのような群の複数の点の幾何学的な質量中心

は、以下の式から得られる。]
[0100] 図18に概略的に示すように、距離センサ3(i)は、異なる方向を向いていてもよいことが認識される。図18において、点で描いた複数の円は物体を示す。距離センサ3(1)は、カメラ9(1)の視野の方向に対して角度αを有する方向を向いており、距離センサ3(2)は、カメラ9(1)の視野の方向に対して角度βを有する方向を向いている。α、βの両方の角度が0°である場合、物体の位置は、距離センサ3(i)から受信されたデータから、コンピュータ装置10によって最も正確に計算され得ることを示す。しかしながら、本発明はこの値に限定されない。実際には、速度を正確に計算するために、a+d+bで示される距離は、軌跡の時間が短いという仮定との整合性を維持しつつ、可能な限り長くされるべきである。] 図18
[0101] 動作36において、コンピュータ装置10は、1つの物体に関連する1つの群の範囲内において、複数の走査点のうちの少なくとも一部分によって規定されるマスクを生成する。図19は、図10に示す人物に関連する複数の画素から成る群についての、そのようなマスクを示す。当該マスクは、画像内の同一の物体に関連付けられる物体に関連する複数の画素から成る1つの群から導出される。使用されるマスクは、物体が移動しているとしても、当該時間尺度の間実質的に形状を変化させないこれらの物体について適切に機能する、固定の形状を有する。これは、物体が徐々にしか移動していないこれらの例について、適切な想定となっている。物体が高速に移動している場合、複数の距離センサ3(i)によって検出される形状は、コンピュータ装置10によって最初に訂正されなければならない。以下では、図22を参照してこの方法を説明する。] 図10 図19 図22
[0102] 動作38において、コンピュータ装置10は、計算された動きベクトルを使用して、このマスクを図10に示す画像の位置(x2, y2)上にマッピングする。図20に示すように、コンピュータ装置10は、図10の画像中の物体の枠を確立するために、マスクをこのように使用する。] 図10 図20
[0103] 動作40において、コンピュータ装置10は、その枠内において任意の所望の画像処理技術を実行することによって、その枠内の物体に関して任意の所望の結果を得ることができる。]
[0104] 上述のように、そのような画像処理技術の1つは、個人データが可視状態でないように、その物体に関連する画像をぼかすことである。これを図21に示す。しかしながら、ここでも、画像の少なくとも一部分を不可視状態/認識不可能にする効果を有する他の画像処理技術、例えば、その部分の焦点をぼかす技術(例えば、http://www.owlnet.rice.edu/~elec431/projects95/lords/elec431.html を参照)、又は個人の詳細を何ら示さない標準的な画像部分でその部分を置換する技術が、使用されてもよい。例えば、人間の顔は、標準的な人形の顔によって置換されてもよい。既に図4bに関して述べたように、「Pixelat」は使用するのに適した技術だろう。] 図21 図4b
[0105] 一実施形態において、プロセッサ11は、個人機微データ又は他の削除されるべきデータを含む、移動物体内のサブ物体を識別する。例えば、プロセッサ11上で動作するプログラムは、眼、耳、鼻等の顔の特徴を探索することで人の顔を識別し得る。それを行うためのプログラムは、市場で入手可能である。Microsoftは、本明細書において使用可能な画像処理ライブラリを提供する。他の技術は、以下のリンク、
http://www.merl.com/reports/docs/TR2004-043.pdf、
http://www.robots.ox.ac.uk/~cvrg/trinity2003/schneiderman_cvpr00.pdf を参照する http://en.wikipedia.org/wiki/face_detection
において見つけられる。]
[0106] あるいは又は更に、プロセッサ11上で動作するプログラムは、文字を含む部分を識別し得る。それを行うためのプログラムも市場で入手可能であり、例えば、本明細書において使用可能な画像処理ライブラリは、http://en.wikipedia.org/wiki/Optical_character_recognition で提供される。(文字がのった)自動車のナンバープレートを認識するプログラムが存在する。例えば、そのようなプログラムは、速度制限を含む道路区間上で使用される。このように、削除したい又はぼかしたいナンバープレート、電話番号及び広告が識別され得る。]
[0107] これまでに、非移動物体及び移動物体を取り扱う方法について説明してきた。しかしながら、移動物体がMMS自体の速度に対して相対的に高速に移動する場合、複数の距離センサ3(j)によって観測されるその物体のサイズは、実際のサイズからずれる。例えば、MMSを追い越すか、又はMMSによって追い越される自動車は、静止している場合又はほとんど静止している場合よりも長い期間にわたって、複数の距離センサ3(j)によって走査され続ける。従って、そのような自動車はより長い期間現れる。自動車が逆方向に移動している場合には、逆の効果が生じる。(複数の)カメラは速いシャッタースピードを有するため、すなわち、画像が自動車の実際のサイズを示すため、カメラ9(i)によって撮影される画像にとって、これはさほど問題ではない。]
[0108] 自動車の実際のサイズと、距離センサ3(j)によって観測される点群における自動車のサイズとの差によって、距離センサデータから導出される非常に小さなマスク又は非常に大きなマスクが得られる。従って、コンピュータ装置10上で動作するプログラムは、この観測されるサイズ誤差を補正しなければならない。これは、動作36において行なわれる。]
[0109] 図22は、高速な移動物体の速度及びサイズ、並びにオプションとして形状が、どのように判定されるかについて説明する。同図の上部分は、自動車を通過するMMSに関連し、同図の下部分は、逆方向に通過する自動車に関連する。] 図22
[0110] 観測される移動物体の長さは、距離センサの1つによる走査の時間tscanningによって判定される。図22の上部分は、距離センサ3(1)が最初に自動車を検出する状況を示す。距離センサ3(1)による走査の時間は、距離センサ3(1)による最初の検出と最後の検出(最後の検出は図22に示されていない)との時間である。] 図22
[0111] 自動車の実際の速度Vrealは、以下の式により定義される。
Vreal = VMMS+ Vrelative
ここで、
Vreal = 自動車の実際の速度
VMMS =位置判定装置データから判定されるMMSの速度
Vrelative =図10の人物の速度を計算するために使用される同一の式を使用して計算される、MMSの速度に対する自動車の相対的な速度
である。] 図10
[0112] 距離センサデータ及び位置判定装置データから計算される、観測される自動車の長さLobservedは、以下の式から得られる。
Lobserved = VMMS・tscanning]
[0113] しかしながら、自動車の実際の長さLrealは以下の式から得られる。
Lreal = Lobserved - Lcorr
式中、Lcorrは、自動車が自身の速度を有するための補正値であり、以下の式に等しい。
Lcorr = Vreal・tscanning
従って、自動車の実際の長さは以下の式から得られる。
Lreal = (VMMS- Vreal)・tscanning]
[0114] なお、この後者の式において、自動車の実際の速度Vrealは、自動車がMMSと同一の方向に走行している場合には、MMSの速度から差し引かれる必要があり、自動車が逆方向に走行している場合には、加算される必要がある。自動車が同一の方向に走行しているか又は逆方向に走行しているかは、2つの距離センサ3(1)、3(2)のデータに基づく速度計算からわかる。]
[0115] 自動車の実際の長さLrealが確立されると、コンピュータ装置10は、このことを考慮して動作36においてマスクを計算する。すなわち、例えばコンピュータ装置は、マスクの長さに因子Fを掛ける。因子Fは以下の式に等しい。
F = Lreal/Lobserved]
[0116] このように取得されるマスクは、動作38において使用される。]
[0117] <概要>
上記で、本発明が、MMS等の、移動している自動車上の1つ以上のデジタルカメラによって撮影される画像内において、正面、道路備品、歩行者及び車両等の物体の位置を判定することに関連することを、説明してきた。自動車上に配置される1つ以上の距離センサは、マスクを生成するために使用され、当該マスクは、そのような画像内の物体を識別し、かつそのような物体又はその一部分に画像処理動作を実行するために使用され得る。場合によっては移動している物体の、画像内のサイズ及び軌跡は、MMS上に搭載される(複数の)カメラによって撮影されるシーンと同一のシーンの走査値を生成している、そのようなMMSに装着される、レーザスキャナ等の2つ以上の距離センサ又は他の距離センサを備える装置を使用して、近似される。例えば、任意の既知の建造物/正面検出アルゴリズムを使用すること、距離センサデータを使用しながら(複数の)カメラによって撮影される画像内で物体を識別すること、続いてそのような物体に1つ以上の画像処理フィルタを適用することによって、以下の有利な効果が達成され得る。
1.これらの部分の解像度又は他の画像視覚特徴を変更することによって、画像上の個人機微部分又は他の不要な部分を保護すること。
2.画像に含まれる不要なデータに関して処理された後の、1つの画像における物体又はその一部分に関連する画像部分は、同一の物体を示す、他のMMS収集された画像においても使用され得る。従って、物体に対して実行される任意の画像処理動作は、異なる画像において1回だけ適用されればよく、再度適用される必要なない。
3.距離センサの点群における静止物体、低速な移動物体、及び高速な移動物体が、区別され得る。それらの実際の長さ及び実際の速度が判定され得る。
4.カメラ画像内の物体は、判定される長さ及び速度値によって、前記画像のレーザ走査検出を調整すること、及びレーザ走査と画像取り込みとの時間差に基づいて、正確にマスクされ得る。
5.自動車と正面との間の領域内において不要な物体は削除され得るとともに、別の画像又は現在の画像からの情報は、最前面の画像を置換するように処理され得る。]
权利要求:

請求項1
プロセッサ(11)と、前記プロセッサに接続された、前記プロセッサに以下の動作を実行させるためのデータ及び指示を含むコンピュータ・プログラムを含むメモリ(12;13;14;15)とを備えるコンピュータ装置(10)であって、前記コンピュータ・プログラムは、前記プロセッサ(11)に、モバイル・システムに搭載された位置判定装置からの時間データ及び位置データと、前記モバイル・システムに搭載された少なくとも第1の距離センサ(3(1))からの第1の距離センサデータと、前記モバイル・システムに搭載された少なくとも1つのカメラ(9(j))からの画像データとを受信する動作と、前記第1の距離センサデータ内で、少なくとも1つの物体に関連する第1の点群を識別する動作と、前記物体に関連し、かつ、前記第1の点群に基づくマスクを生成する動作と、前記少なくとも1つのカメラ(9(j))からの前記画像データ内に存在するのと同一の前記物体に関連する物体画像データ上に、前記マスクをマッピングする動作と、前記物体画像データの少なくとも一部分に対して、予め定められた画像処理技術を実行する動作とを実行させることを特徴とするコンピュータ装置。
請求項2
前記コンピュータ・プログラムは、前記プロセッサ(11)に、前記モバイル・システムに搭載された第2の距離センサ(3(2))から第2の距離センサデータを受信する動作と、前記第2の距離センサデータ内で、同一の前記少なくとも1つの物体に関連する第2の点群を識別する動作と、前記第1の点群及び前記第2の点群から、前記少なくとも1つの物体に関する動きベクトルを計算する動作と、前記動きベクトルを使用して前記物体画像データ上に前記マスクをマッピングする動作とを更に実行させることを特徴とする請求項1に記載のコンピュータ装置。
請求項3
前記コンピュータ・プログラムは、前記プロセッサ(11)に、前記第1の距離センサデータ及び前記第2の距離センサデータに基づいて、前記物体の実際のサイズを計算する動作と、前記実際の長さを使用して前記マスクを生成する動作とを更に実行させることを特徴とする請求項2に記載のコンピュータ装置。
請求項4
前記コンピュータ・プログラムは、前記プロセッサ(11)に、前記第1の距離センサデータ及び前記第2の距離センサデータのうちの1つに基づいて、前記物体についての観測されたサイズを計算する動作と、前記観測された長さ及び前記実際の長さに基づいて、前記マスクを計算する動作とを更に実行させることを特徴とする請求項3に記載のコンピュータ装置。
請求項5
前記プロセッサ(11)は、少なくとも前記第1の距離センサ及び第2の距離センサ(3(i))からの前記距離センサデータ内で検出される任意の物体に関する動きの速度及び方向が実質的に一定であると仮定して、前記動きベクトルを算出することを特徴とする請求項2又は3に記載のコンピュータ装置。
請求項6
前記第2の点群を識別する前記動作は、地面に固定された参照物体から前記少なくとも1つの物体を区別する動作を含むことを特徴とする請求項2乃至5の何れか1項に記載のコンピュータ装置。
請求項7
前記第1の点群を識別する前記動作は、地面に固定された参照物体から前記少なくとも1つの物体を区別する動作を含むことを特徴とする請求項1乃至6の何れか1項に記載のコンピュータ装置。
請求項8
前記参照物体は建造物であることを特徴とする請求項6又は7に記載のコンピュータ装置。
請求項9
前記予め定められた画像処理技術は、前記少なくとも一部分をぼかすこと、前記少なくとも一部分の焦点をぼかすこと、及び予め定められた画像データで前記少なくとも一部分を置換することのうちの少なくとも1つを含むことを特徴とする請求項1乃至8の何れか1項に記載のコンピュータ装置。
請求項10
前記コンピュータ・プログラムは、更に、物体認識技術及び文字認識技術のうちの少なくとも1つを使用することによって、前記少なくとも一部分を識別する動作を前記プロセッサ(11)に実行させることを特徴とする請求項1乃至9の何れか1項に記載のコンピュータ装置。
請求項11
前記少なくとも一部分は、個人機微データを含むことを特徴とする請求項1乃至10の何れか1項に記載のコンピュータ装置。
請求項12
前記物体画像データは、所定のシーンに属し、前記予め定められた画像処理技術は、前記画像データ内の前記物体画像データを削除すること、及び、前記物体が存在しない場合に、可視状態のデータで前記シーン内の前記物体画像データを置き換えることを含むことを特徴とする請求項1乃至11の何れか1項に記載のコンピュータ装置。
請求項13
前記画像データは、それぞれが同一の前記物体を表示する複数の画像に関連し、前記プロセッサ(11)は、前記複数の画像のうちの1つに含まれる前記物体画像データの前記少なくとも一部分に対して、前記予め定められた画像処理技術を実行する前記動作によって、処理された物体画像を生成し、前記複数の画像のうちの他の画像に含まれる前記物体を、前記処理された物体画像で置換することを特徴とする請求項1乃至12の何れか1項に記載のコンピュータ装置。
請求項14
請求項1乃至13の何れか1項に記載のコンピュータ装置と、モバイル・システムとを備えるデータ処理システムであって、前記モバイル・システムは、前記時間データ、前記位置データ、及び方位データを提供する位置判定装置と、前記第1の距離センサデータを提供する少なくとも第1の距離センサ(3(i))と、前記画像データを提供する少なくとも1つのカメラ(9(j))とを備えることを特徴とするデータ処理システム。
請求項15
第1の距離センサ(3(1))からの第1の距離センサデータを、少なくとも1つのカメラ(9(j))からの画像データにマッピングする方法であって、前記第1の距離センサ(3(1))及び前記少なくとも1つのカメラ(9(j))の両方は、相互に固定された関係でモバイル・システム上に配置され、前記方法は、前記モバイル・システムに搭載された位置判定装置からの時間データ及び位置データと、前記モバイル・システムに搭載された少なくとも第1の距離センサ(3(1))からの第1の距離センサデータと、前記モバイル・システムに搭載された前記少なくとも1つのカメラ(9(j))からの前記画像データとを受信する工程と、前記第1の距離センサデータ内で、少なくとも1つの物体に関連する第1の点群を識別する工程と、前記物体に関連し、かつ、前記第1の点群に基づくマスクを生成する工程と、前記少なくとも1つのカメラ(9(j))からの前記画像データ内に存在するのと同一の前記物体に関連する物体画像データ上に、前記マスクをマッピングする工程と、前記物体画像データの少なくとも一部分に対して、予め定められた画像処理技術を実行する工程とを含むことを特徴とする方法。
請求項16
前記モバイル・システムに搭載された第2の距離センサ(3(2))から第2の距離センサデータを受信する工程と、前記第2の距離センサデータ内で、同一の前記少なくとも1つの物体に関連する第2の点群を識別する工程と、前記第1の点群及び前記第2の点群から、前記少なくとも1つの物体に関する動きベクトルを計算する工程と、前記動きベクトルを使用することによって前記物体画像データ上に前記マスクをマッピングする工程とを更に含むことを特徴とする請求項15に記載の方法。
請求項17
前記第1の距離センサデータ及び前記第2の距離センサデータに基づいて、前記物体の実際のサイズを計算する工程と、前記実際のサイズを使用して前記マスクを生成する工程とを更に含むことを特徴とする請求項16に記載の方法。
請求項18
コンピュータ装置によって読み込まれるデータ及び指示を含むコンピュータ・プログラムであって、請求項15乃至17の何れか1項に記載の方法を前記コンピュータ装置に実行させることを特徴とするコンピュータ・プログラム。
請求項19
請求項18に記載のコンピュータ・プログラムを備えるデータ記憶媒体。
請求項20
プロセッサ(11)と、前記プロセッサに接続された、前記プロセッサに以下の処理を実行させるためのデータ及び指示を含むコンピュータ・プログラムを含むメモリ(12;13;14;15)とを備えるコンピュータ装置(10)であって、前記コンピュータ・プログラムは、前記プロセッサ(11)に、モバイル・システムに搭載された位置判定装置からの時間データ及び位置データと、前記モバイル・システムに搭載された少なくとも第1の距離センサ(3(1))からの第1の距離センサデータと、前記モバイル・システムに搭載された第2の距離センサ(3(2))からの第2の距離センサデータとを受信する動作と、前記第1の距離センサデータ内で、少なくとも1つの物体に関連する第1の点群を識別する動作と、前記第2の距離センサデータ内で、少なくとも1つの物体に関連する第2の点群を識別する動作と、前記第1の点群及び前記第2の点群から、前記少なくとも1つの物体に関する動きベクトルを計算する動作とを実行させることを特徴とするコンピュータ装置。
請求項21
前記コンピュータ・プログラムは、前記プロセッサ(11)に、前記第1の点群内の第1の質量中心と前記第2の点群内の第2の質量中心とを計算して、前記動きベクトルを計算する動作と、前記第1の質量中心と前記第2の質量中心との間の経路長を確立する動作とを更に実行させることを特徴とする請求項20に記載のコンピュータ装置。
請求項22
前記コンピュータ・プログラムは、前記プロセッサ(11)に、前記第1の距離センサデータと第2の距離センサデータとに基づいて、前記物体の実際の長さを計算する動作を更に実行させることを特徴とする請求項20又は21に記載のコンピュータ装置。
請求項23
物体の動きベクトルを計算する方法であって、モバイル・システムに搭載された位置判定装置からの時間データ及び位置データと、前記モバイル・システムに搭載された少なくとも第1の距離センサ(3(1))からの第1の距離センサデータと、前記モバイル・システムに搭載された第2の距離センサ(3(2))からの第2の距離センサデータとを受信する工程と、前記第1の距離センサデータ内で、少なくとも1つの物体に関連する第1の点群を識別する工程と、前記第2の距離センサデータ内で、少なくとも1つの物体に関連する第2の点群を識別する工程と、前記第1の点群及び前記第2の点群から、前記少なくとも1つの物体に関する動きベクトルを計算する工程とを含むことを特徴とする方法。
請求項24
コンピュータ装置によって読み込まれるデータ及び指示を含むコンピュータ・プログラムであって、請求項23に記載の方法を前記コンピュータ装置に実行させることを特徴とするコンピュータ・プログラム。
請求項25
請求項24に記載のコンピュータ・プログラムを備えるデータ記憶媒体。
类似技术:
公开号 | 公开日 | 专利标题
JP6763448B2|2020-09-30|Visually enhanced navigation
US9641755B2|2017-05-02|Reimaging based on depthmap information
US20160154999A1|2016-06-02|Objection recognition in a 3d scene
JP6168833B2|2017-07-26|3DGeoArcを用いた多モードデータの画像登録
US8625851B2|2014-01-07|Measurement apparatus, measurement method, and feature identification apparatus
CN109084746A|2018-12-25|用于具有辅助传感器的自主平台引导系统的单目模式
Xu et al.2018|Review of machine-vision based methodologies for displacement measurement in civil structures
JP4284644B2|2009-06-24|3D model construction system and 3D model construction program
US8238610B2|2012-08-07|Homography-based passive vehicle speed measuring
US8548229B2|2013-10-01|Method for detecting objects
JP6144656B2|2017-06-07|歩行者の視覚的認識が困難であり得ることを運転者に警告するシステム及び方法
JP4958497B2|2012-06-20|位置姿勢測定装置及び位置姿勢測定方法、複合現実感提示システム、コンピュータプログラム及び記憶媒体
EP2092270B1|2016-09-14|Method and apparatus for identification and position determination of planar objects in images
JP6464337B2|2019-02-06|シーン解析を使用する交通カメラキャリブレーション更新
JP5776545B2|2015-09-09|路面調査プログラム及び路面調査装置
US20150138310A1|2015-05-21|Automatic scene parsing
EP2531980B1|2015-08-05|Depth camera compatibility
JP5435306B2|2014-03-05|画像処理システム及び位置測位システム
CN101068344B|2010-06-16|物体检测装置
JP6726932B2|2020-07-22|Context-aware object detection in aerial photography/video using road metadata
DE112011103221T5|2013-09-19|Erweitern von Bilddaten basierend auf zugehörigen 3D-Punktwolkendaten
US20170132806A1|2017-05-11|System and method for augmented reality and virtual reality applications
US8396255B2|2013-03-12|System for and method of processing laser scan samples and digital photographic images relating to building facades
US20120155744A1|2012-06-21|Image generation method
JP4429298B2|2010-03-10|対象個数検出装置および対象個数検出方法
同族专利:
公开号 | 公开日
EP2261604B1|2011-06-22|
EP2261604A1|2010-12-15|
AT514055T|2011-07-15|
US9880010B2|2018-01-30|
WO2009061174A1|2009-05-14|
US20100296705A1|2010-11-25|
ES2359852T3|2011-05-27|
EP2208021B1|2011-01-26|
AU2007361324A1|2009-05-14|
CN101842661A|2010-09-22|
CA2705019A1|2009-05-14|
EP2208021A1|2010-07-21|
AT497146T|2011-02-15|
DE602007012321D1|2011-03-10|
引用文献:
公开号 | 申请日 | 公开日 | 申请人 | 专利标题
JP2004144719A|2002-10-28|2004-05-20|Matsushita Electric Works Ltd|超音波アレイセンサによる物体位置・形状の計測方法及びその計測装置|
JP2005286468A|2004-03-29|2005-10-13|Mitsubishi Electric Corp|マスキング機能付き監視システムおよびカメラ、並びに該カメラとともに用いられるマスク解除装置|
JP2006178825A|2004-12-24|2006-07-06|Denso Corp|プローブシステム|CN102589529A|2012-02-13|2012-07-18|武汉大学|扫描近景摄影测量方法|
JP2013205354A|2012-03-29|2013-10-07|Denso Wave Inc|目標移動体検知方法|
JP2014174275A|2013-03-07|2014-09-22|Advanced Telecommunication Research Institute International|地図作成装置、地図作成プログラムおよび地図作成方法|
JP2015059914A|2013-09-20|2015-03-30|株式会社東芝|計測支援装置、方法及びプログラム|
JP2018063236A|2016-10-13|2018-04-19|バイドゥ ネットコム サイエンス アンド テクノロジー(ペキン) カンパニー リミテッド|点群データにアノテーションを付与する方法および装置|
WO2020066637A1|2018-09-28|2020-04-02|パナソニックIpマネジメント株式会社|奥行取得装置、奥行取得方法およびプログラム|US5034986A|1989-03-01|1991-07-23|Siemens Aktiengesellschaft|Method for detecting and tracking moving objects in a digital image sequence having a stationary background|
US5988862A|1996-04-24|1999-11-23|Cyra Technologies, Inc.|Integrated system for quickly and accurately imaging and modeling three dimensional objects|
US6009359A|1996-09-18|1999-12-28|National Research Council Of Canada|Mobile system for indoor 3-D mapping and creating virtual environments|
DE10021250A1|2000-04-22|2001-10-25|Francotyp Postalia Gmbh|Anordnung zur Poststückdetektierung|
WO2004042662A1|2002-10-15|2004-05-21|University Of Southern California|Augmented virtual environments|
DE10158990C1|2001-11-30|2003-04-10|Bosch Gmbh Robert|Videoüberwachungssystem|
US6959099B2|2001-12-06|2005-10-25|Koninklijke Philips Electronics N.V.|Method and apparatus for automatic face blurring|
US7893959B2|2002-01-22|2011-02-22|Sanyo Electric Co., Ltd.|Video display system for correcting the position and size of mask images|
US20070201694A1|2002-06-18|2007-08-30|Bolle Rudolf M|Privacy management in imaging system|
KR100660351B1|2002-07-10|2006-12-21|하만 베커 오토모티브 시스템즈 게엠베하|물체의 삼차원 전자 모델 발생 시스템|
DE10252323A1|2002-11-11|2004-05-19|Ibeo Automobile Sensor Gmbh|Verfahren zur Bestimmung einer Eigenbewegung eines Fahrzeuges|
FR2853121B1|2003-03-25|2006-12-15|Imra Europe Sa|Dispositif de surveillance des alentours d'un vehicule|
US8212872B2|2004-06-02|2012-07-03|Robert Bosch Gmbh|Transformable privacy mask for video camera images|
US7187809B2|2004-06-10|2007-03-06|Sarnoff Corporation|Method and apparatus for aligning video to three-dimensional point clouds|
US7940302B2|2004-09-15|2011-05-10|The Regents Of The University Of California|Apparatus and method for privacy protection of data collection in pervasive environments|
US9426387B2|2005-07-01|2016-08-23|Invention Science Fund I, Llc|Image anonymization|
EP1920423A2|2005-09-01|2008-05-14|GeoSim Systems Ltd.|System and method for cost-effective, high-fidelity 3d-modeling of large-scale urban environments|
US8625854B2|2005-09-09|2014-01-07|Industrial Research Limited|3D scene scanner and a position and orientation system|
US8884962B2|2006-10-20|2014-11-11|Tomtom Global Content B.V.|Computer arrangement for and method of matching location data of different sources|
US8203609B2|2007-01-31|2012-06-19|The Invention Science Fund I, Llc|Anonymization pursuant to a broadcasted policy|
US8098282B2|2007-07-13|2012-01-17|Honeywell International Inc.|Privacy zone algorithm for ptz dome cameras|
US8848974B2|2008-09-29|2014-09-30|Restoration Robotics, Inc.|Object-tracking systems and methods|EP2263380A1|2008-04-18|2010-12-22|Tele Atlas B.V.|Method of using laser scanned point clouds to create selective compression masks|
US8848974B2|2008-09-29|2014-09-30|Restoration Robotics, Inc.|Object-tracking systems and methods|
JP5219847B2|2009-01-09|2013-06-26|キヤノン株式会社|画像処理装置及び画像処理方法|
FR2946312B1|2009-06-08|2012-10-12|Peugeot Citroen Automobiles Sa|Procede de determination de distance inter vehicules|
US8743201B2|2010-09-27|2014-06-03|National Applied Research Laboratories|Time-Sequential multi-spectrum imaging device|
US20120121166A1|2010-11-12|2012-05-17|Texas Instruments Incorporated|Method and apparatus for three dimensional parallel object segmentation|
JP5501476B2|2010-11-15|2014-05-21|三菱電機株式会社|車載用画像処理装置|
EP2495980A1|2011-03-02|2012-09-05|Thomson Licensing|System and method for capturing a stereoscopic dataset|
US10235577B1|2011-03-17|2019-03-19|UtopiaCompression Corporation|Maneuverless passive range estimation using monocular image sequences|
US9342746B1|2011-03-17|2016-05-17|UtopiaCompression Corporation|Maneuverless passive range estimation using monocular image sequences|
JP5748521B2|2011-03-29|2015-07-15|株式会社トプコン|レーザスキャナ及び動体検知方法|
US9810533B2|2011-04-27|2017-11-07|Trimble Inc.|Railway track monitoring|
US8565958B1|2011-06-02|2013-10-22|Google Inc.|Removing extraneous objects from maps|
FR2976355B1|2011-06-09|2013-06-21|Jean Luc Desbordes|Dispositif de mesure de vitesse et de position d'un vehicule se deplacant le long d'une voie de guidage, procede et produit programme d'ordinateur correspondant.|
AT511733B1|2011-08-12|2013-05-15|Riegl Laser Measurement Sys|Verfahren zum erzeugen einer verbesserten abtastpunktewolke|
US8630805B2|2011-10-20|2014-01-14|Robert Bosch Gmbh|Methods and systems for creating maps with radar-optical imaging fusion|
US9129211B2|2012-03-15|2015-09-08|GM Global Technology Operations LLC|Bayesian network to track objects using scan points using multiple LiDAR sensors|
DE102012009688B4|2012-05-09|2016-01-07|Db Systel Gmbh|Verfahren, Signalfolge sowie Rechneranlage zum Erstellen, Verwalten, Komprimieren und Auswerten von 3D-Daten eines dreidimensionalen Geländemodells und ein Computerprogramm mit Programmcode zur Durchführung des Verfahrens auf einem Computer|
US9014903B1|2012-05-22|2015-04-21|Google Inc.|Determination of object heading based on point cloud|
US8953843B1|2012-07-17|2015-02-10|Google Inc.|Selecting objects in a sequence of images|
US8977003B1|2012-07-17|2015-03-10|Google Inc.|Detecting objects in a sequence of images|
US9298931B2|2012-08-15|2016-03-29|Empire Technology Development Llc|Digital media privacy protection|
JP2014078910A|2012-10-12|2014-05-01|Sony Corp|Image processing apparatus, image processing system, image processing method, and program|
US20140163885A1|2012-12-07|2014-06-12|Caterpillar Inc.|Terrain map updating system|
GB201301281D0|2013-01-24|2013-03-06|Isis Innovation|A Method of detecting structural parts of a scene|
GB201303076D0|2013-02-21|2013-04-10|Isis Innovation|Generation of 3D models of an environment|
CN104113678A|2013-04-17|2014-10-22|腾讯科技(深圳)有限公司|图像的等距采集实现方法及系统|
CN103325255B|2013-06-29|2016-01-20|佘若凡|基于摄影测量技术进行区域交通状况检测的方法|
JP6547292B2|2014-02-05|2019-07-24|株式会社リコー|画像処理装置、機器制御システム、および画像処理プログラム|
CN103884335A|2014-04-09|2014-06-25|北京数联空间科技股份有限公司|基于二维码地理信息标志的遥感与摄影测量定位方法|
US9436180B1|2014-04-11|2016-09-06|Google Inc.|Location-based privacy|
GB201409625D0|2014-05-30|2014-07-16|Isis Innovation|Vehicle localisation|
EP3009983A1|2014-10-13|2016-04-20|Conti Temic microelectronic GmbH|Obstacle detection apparatus and method|
JP2016099270A|2014-11-25|2016-05-30|セイコーエプソン株式会社|位置算出方法、位置算出装置及び位置算出プログラム|
US9718405B1|2015-03-23|2017-08-01|Rosco, Inc.|Collision avoidance and/or pedestrian detection system|
DE102015217492A1|2015-09-14|2017-03-16|Volkswagen Aktiengesellschaft|Vorrichtung und Verfahren zum Erstellen oder Aktualisieren einer Umfeldkarte eines Kraftfahrzeugs|
CN105243119B|2015-09-29|2019-05-24|百度在线网络技术(北京)有限公司|确定图像的待叠加区域、叠加图像、图片呈现方法和装置|
CN106373118B|2016-08-30|2017-09-22|华中科技大学|可有效保留边界和局部特征的复杂曲面零件点云精简方法|
US10496831B2|2016-09-20|2019-12-03|Intel Corporation|Dynamic electronic display privacy filter|
DE102016220521A1|2016-10-19|2018-04-19|Volkswagen Aktiengesellschaft|Verfahren zum Ermitteln einer Position eines Kraftfahrzeugs sowie Fahrerassistenzsystem für ein Kraftfahrzeug|
US10571556B2|2017-09-18|2020-02-25|United States Of America As Represented By Secretary Of The Navy|Frequency modulated continuous wave radar detector|
CN107734294A|2017-09-26|2018-02-23|中国科学院长春光学精密机械与物理研究所|监控图像复原系统及方法|
US20200341151A1|2018-02-20|2020-10-29|Mitsubishi Electric Corporation|Measurement monitoring device and computer readable medium|
US10628920B2|2018-03-12|2020-04-21|Ford Global Technologies, Llc|Generating a super-resolution depth-map|
WO2020041898A1|2018-08-30|2020-03-05|Jakarto Cartographie 3D Inc.|Method and system for generating an electronic map and applications therefor|
WO2020069034A1|2018-09-26|2020-04-02|Zoox, Inc.|Image scan line timestamping|
US10582137B1|2018-09-26|2020-03-03|Zoox, Inc.|Multi-sensor data capture synchronizaiton|
DE102019204602B4|2019-04-01|2020-10-15|Volkswagen Aktiengesellschaft|Method and device for masking objects contained in an image|
法律状态:
2012-01-17| A977| Report on retrieval|Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120117 |
2012-01-24| A131| Notification of reasons for refusal|Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120123 |
2012-06-26| A02| Decision of refusal|Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20120625 |
优先权:
申请号 | 申请日 | 专利标题
[返回顶部]